今天正式進入分析階段,我讓不同的生成式 AI 幫我判斷釣魚郵件。
輸入提示如下:
「這封郵件看起來像是釣魚郵件嗎?為什麼?」
測試結果觀察:
ChatGPT:能指出「語氣太急迫」、「寄件網址可疑」。
Copilot:回答較一般化,缺少細節分析。
Gemini:能補充說明「連結與寄件人不一致」的風險。
以ChatGPT 的分析最為清楚,能指出「語氣太急迫」、「寄件網址可疑」、「要求提供個資」等具體線索。Copilot 的回答相對簡略,雖然能辨識部分可疑點,但缺乏進一步的解釋。Gemini 則補充了「連結與寄件人網域不一致」的細節,顯示其在模式比對上有一定敏銳度。
整體來看,三款 AI 都能初步判斷郵件的可疑程度,但在分析深度與邏輯推理上仍存在差異。它們大多依賴表面特徵,例如語氣與連結,而對於那些偽裝精細、語氣自然、甚至引用真實品牌資訊的釣魚郵件,辨識準確度明顯下降。這也顯示,目前生成式 AI 在資安領域的應用仍需人工輔助,未來或可透過更多訓練數據與專用模型來強化防禦效果。